Capacidade de um canal
Em engenharia elétrica, ciência da computação e teoria da informação, capacidade de canal é o limite superior da taxa na qual a informação pode ser transmitida de forma confiável através de um canal de comunicações.
Pelo teorema de codificação de canal ruidoso, a capacidade de canal para um determinado canal é o limite da taxa de informação (em unidades de informação por unidade de tempo) que pode ser alcançado com uma pequena probabilidade de erro arbitrário.[1][2]
A teoria da informação, desenvolvida por Claude E. Shannon , durante a II Guerra Mundial, define a noção de capacidade de canal e fornece um modelo matemático através do qual pode-se calcular esta capacidade. O resultado indica que a capacidade do canal, como definido acima, é dada pela máxima informação mútua entre a entrada e a saída do canal, onde a maximização é relacionada à distribuição de entrada.[3]
A noção de capacidade de canal tem sido fundamental para o desenvolvimento de sistemas de comunicação com e sem fio modernos, com o advento de novos mecanismos de correção de erros de codificação que resultaram na obtenção de um desempenho muito próximo dos limites prometidos pela capacidade de canal.
Definição Formal
[editar | editar código-fonte]Definimos e como as variáveis aleatórias que representam a entrada e a saída do canal, respectivamente. Definimos como a função de distribuição condicional de dado , o que é uma propriedade fixa própria do canal de comunicações. Em seguida, a escolha da distribuição marginal determina por completo a distribuição conjunta devido à identidade
que, por sua vez, induz uma informação mútua . A capacidade do canal é definida como
onde o supremo é tomado sobre todas as opções possíveis de .
Capacidade de um grafo de Shannon
[editar | editar código-fonte]Se G é um grafo não direcionado, ele pode ser usado para definir um canal de comunicações, em que os símbolos são os vértices do gráfico, e duas palavras-código podem ser confundidas uma com a outra se os seus símbolos em cada posição forem iguais ou adjacentes. A complexidade computacional de se encontrar a capacidade de Shannon de um canal como este permanece em aberto, mas pode ser delimitada superiormente por outro importante invariante de grafo, o número de Lovász.[4]
Teorema da codificação de canal ruidoso
[editar | editar código-fonte]O teorema de codificação de canal ruidoso afirma que, para qualquer ε > 0 e para qualquer taxa de transmissão R menor do que a capacidade de canal C, há um esquema de codificação e decodificação que transmite dados a uma taxa R cuja probabilidade de erro é menor do que ε, para um bloco de comprimento suficientemente grande. Além disso, para qualquer taxa maior do que a capacidade do canal, a probabilidade de erro no receptor tende a um como o comprimento do bloco tende ao infinito.
Exemplo de aplicação
[editar | editar código-fonte]Um aplicação do conceito de capacidade de canal para um canal de ruído branco aditivo Gaussiano (AWGN) com largura de banda de B Hz e razão sinal-ruído S/N é o teorema Shannon–Hartley:
C é medido em bits por segundo se o logaritmo é tomado na base 2, ou nats por segundo se o logaritmo natural é usado, supondo que B seja em hertz; a potência do sinal e o ruído S e N são medidos em watts ou volts2, então o sinal-ruído aqui é expresso como uma relação de potência, não em decibéis (dB); como figuras são geralmente citadas em dB, uma conversão pode ser necessária. Por exemplo, 30 dB é uma relação de potência de .
Capacidade de canal em comunicações sem fio
[editar | editar código-fonte]Esta seção[5] centra-se em uma única antena, com um cenário ponto-a-ponto. Para a capacidade de canal em sistemas com múltiplas antenas, consulte o artigo sobre MIMO.
Canal AWGN
[editar | editar código-fonte]Se a potência média recebida é [W] e o ruído de densidade espectral de potência é [W/Hz], o capacidade de canal AWGN é
- [bits/s],
onde é a razão sinal-ruído (SNR) recebida. Este resultado é conhecido como o teorema de Shannon–Hartley.[6]
Quando a SNR é grande (SNR >> 0 dB), a capacidade é logarítmica na potência e aproximadamente linear na largura de banda. Isto é chamado de regime de largura de banda limitada.
Quando a SNR é pequena (SNR << 0 dB), a capacidade é linear na potência, mas insensível à largura de banda. Isto é chamado de regime de potência limitada.
O regime de largura de banda limitada e o regime de potência-limitada estão ilustrados na figura.
Canal de frequência-seletiva
[editar | editar código-fonte]A capacidade do canal de frequência seletiva é dada pela chamada alocação de potência water filling,
onde e é o ganho de subcanal , com escolhido para atender a restrição de potência.
Canal de desvanecimento-lento
[editar | editar código-fonte]Em um canal de desvanecimento lento, onde o tempo de coerência é maior do que os requisitos de latência, não há uma capacidade definida quando a máxima taxa de comunicação confiável suportada pelo canal, depende do ganho aleatório do canal , que é desconhecido para o transmissor. Se o transmissor codifica os dados a uma taxa de [bits/s/Hz], existe uma probabilidade não-zero de que a probabilidade de erro de decodificação não possa ser arbitrariamente pequena,
- ,
na qual o sistema é dito estar em interrupção. Com uma probabilidade não-zero de que o canal esteja em profundo desvanecimento, a capacidade de desvanecimento lento do canal em sentido literal é zero. No entanto, é possível determinar o maior valor de de tal forma que a probabilidade de interrupção seja menor que . Este valor é conhecido como o -capacidade de interrupção.
Canal de desvanecimento-rápido
[editar | editar código-fonte]Em um canal de rápido desvanecimento, onde os requisitos de latência é maior do que o tempo de coerência e o comprimento da palavra-código se estende por muitos períodos de coerência, pode-se balancear ao longo de muitos desvanecimentos de canal independentes através da codificação sobre um grande número de intervalos de tempo de coerência. Assim, é possível alcançar uma confiável taxa de comunicação de [bits/s/Hz] e é significativo falar deste valor como a capacidade de canal de rápido desvanecimento.
Veja também
[editar | editar código-fonte]- Largura de banda (computação)
- Largura de banda (processamento de sinal)
- Taxa de bits
- Taxa de código
- Expoente de Erro
- Taxa de Nyquist
- Redundância
- Fonte, Codificador, Decodificador, Receptor
- Teorema de Shannon–Hartley
- Eficiência espectral
- Taxa de transferência
Ligações externas
[editar | editar código-fonte]- Hazewinkel, Michiel, ed. (2001), «Transmission rate of a channel», Enciclopédia de Matemática, ISBN 978-1-55608-010-4 (em inglês), Springer
- Canal AWGN Capacidade com diversas restrições no canal de entrada (demonstração interativa)
Referências
[editar | editar código-fonte]- ↑ Saleem Bhatti. «Channel capacity». Lecture notes for M.Sc. Data Communication Networks and Distributed Systems D51 -- Basic Communications and Networks
- ↑ Jim Lesurf. «Signals look like noise!». Information and Measurement, 2nd ed.
- ↑ Thomas M. Cover, Joy A. Thomas (2006). Elements of Information Theory. [S.l.]: John Wiley & Sons, New York
- ↑ Lovász, László (1979), «On the Shannon Capacity of a Graph», IEEE Transactions on Information Theory, IT-25 (1), doi:10.1109/tit.1979.1055985.
- ↑ David Tse, Pramod Viswanath (2005), Fundamentals of Wireless Communication, Cambridge University Press, UK
- ↑ The Handbook of Electrical Engineering. [S.l.]: Research & Education Association. 1996. p. D-149. ISBN 9780878919819